تجزیه و تحلیل دستی داده های بزرگ با Hadoop 3 [ویدئو]

Hands-On Big Data Analysis with Hadoop 3 [Video]

نکته: آخرین آپدیت رو دریافت میکنید حتی اگر این محتوا بروز نباشد.
نمونه ویدیوها:
توضیحات دوره: این دوره راهنمای شما برای انجام تجزیه و تحلیل داده ها در زمان واقعی و پردازش جریانی با Spark است. برای پردازش داده های خام از اجزا و ابزارهای مختلفی مانند HDFS، HBase و Hive استفاده کنید. بیاموزید که چگونه ابزارهایی مانند Hive و Pig در این فرآیند کمک می کنند. در این دوره، شما با یادگیری تکنیک های تجزیه و تحلیل داده ها با Hadoop با استفاده از ابزارهایی مانند Hive شروع می کنید. علاوه بر این، شما یاد خواهید گرفت که این تکنیک ها را در برنامه های داده های بزرگ در دنیای واقعی به کار ببرید. همچنین، برای انجام تجزیه و تحلیل داده‌ها، استریم و پردازش دسته‌ای در زمان واقعی، به Spark و ابزارهای مرتبط با آن می‌پردازید. در نهایت، یاد خواهید گرفت که چگونه راه حل های تحلیلی خود را به فضای ابری گسترش دهید. لطفا توجه داشته باشید که این دوره مبتنی بر Hadoop 3.0 است اما کد استفاده شده در دوره با Hadoop 3.2 سازگار است. بسته کد این دوره ویدیویی در دسترس است - https://github.com/PacktPublishing/Hands-On-Big-Data-Analysis-with-Hadoop-3 داده ها را با HDFS ذخیره کنید و در مورد HBase با جزئیات بیاموزید به اشتراک گذاری و دسترسی به داده ها در یک رابط SQL مانند برای HDFS رویدادهای بلادرنگ را با استفاده از Spark Streaming تجزیه و تحلیل کنید تجزیه و تحلیل داده های بزرگ پیچیده را با استفاده از MapReduce انجام دهید تجزیه و تحلیل داده ها برای انجام پردازش های پیچیده با Hive و Pig برنامه نویسی کاربردی را با استفاده از Spark کاوش کنید آموزش وارد کردن داده ها با استفاده از Sqoop این دوره برای متخصصان کلان داده است که به دنبال ساخت راه حل های تجزیه و تحلیل داده سریع و کارآمد برای برنامه های کلان داده خود با Hadoop 3 هستند. دانش اولیه اکوسیستم Hadoop و دانش پایه برنامه نویسی جاوا فرض شده است. حجم زیادی از داده ها را به طور موثر با ترکیب قدرت ابزارهای پردازش داده های بزرگ مانند Hadoop و Spark Streaming تجزیه و تحلیل کنید * با انواع مختلف داده ها کار کنید و عملیات داده های واقعی را انجام دهید * بهترین موارد استفاده را کاوش کنید، مناطق مشکل را شناسایی کنید و آنها را با بهترین ابزار منبع باز

سرفصل ها و درس ها

HDFS و HBase - پایگاه داده Hadoop HDFS and HBase – The Hadoop Database

  • بررسی اجمالی دوره The Course Overview

  • چرا HBase؟ Why HBase?

  • HDFS و HBase HDFS and HBase

  • مفاهیم پایگاه داده ستون گرا Column-Oriented Database Concepts

  • ایجاد پایگاه داده HBase – با استفاده از HBase از جاوا Creating an HBase Database – Using HBase from Java

  • استفاده از Sqoop برای وارد کردن داده به HDFS Using Sqoop to Import Data to HDFS

پردازش داده با استفاده از MapReduce Data Processing Using MapReduce

  • MapReduce Job Architecture MapReduce Job Architecture

  • یادگیری مفاهیم کلیدی Spark - زمینه Spark، درایور و RDD Learning Spark’s Key Concepts – Spark Context, Driver, and RDD

  • Spark API – برنامه نویسی کاربردی با استفاده از Spark Spark API – Functional Programming Using Spark

  • جرقه تحولات و اقدامات Spark Transformations and Actions

  • نوشتن MapReduce Jobs با استفاده از Apache Spark Writing MapReduce Jobs Using Apache Spark

تجزیه و تحلیل داده ها با استفاده از Hive and Pig Analyzing Data Using Hive and Pig

  • مقدمه ای بر خوک Introduction to Pig

  • معماری کندو و موارد استفاده Hive Architecture and Use Cases

  • زبان پرس و جو Hive Hive Query Language

  • استفاده از Hive and Pig برای اجرای MapReduce Query Using Hive and Pig to Perform MapReduce Query

انجام تجزیه و تحلیل رویدادها در زمان واقعی با استفاده از Spark Streaming Performing Real-Time Events Analysis Using Spark Streaming

  • معرفی Spark Streaming Introducing Spark Streaming

  • مدیریت زمان در جریان های پرسرعت Handling Time in High-Velocity Streams

  • برنامه ساخت جریان Building Streaming Application

  • فیلتر کردن ربات ها از جریان رویدادهای نمایش صفحه Filtering Bots from a Stream of Page View Events

نمایش نظرات

تجزیه و تحلیل دستی داده های بزرگ با Hadoop 3 [ویدئو]
جزییات دوره
1 h 36 m
19
Packtpub Packtpub
(آخرین آپدیت)
از 5
ندارد
دارد
دارد
جهت دریافت آخرین اخبار و آپدیت ها در کانال تلگرام عضو شوید.

Google Chrome Browser

Internet Download Manager

Pot Player

Winrar

Tomasz Lelek Tomasz Lelek

توماس للک یک مهندس نرم افزار است که بیشتر در جاوا و اسکالا برنامه نویسی می کند. او از طرفداران معماری میکروسرویس و برنامه نویسی کاربردی است. او هر روز زمان و تلاش قابل توجهی را برای بهتر شدن اختصاص می دهد. او اخیراً به فناوری‌های کلان داده مانند Apache Spark و Hadoop پرداخته است. او تقریباً به همه چیزهایی که با توسعه نرم افزار مرتبط است علاقه دارد. توماس فکر می کند که همیشه باید سعی کنیم قبل از حل یک مشکل راه حل ها و رویکردهای مختلف را در نظر بگیریم. او اخیراً در چندین کنفرانس در لهستان - Confitura و JDD (روز توسعه‌دهنده جاوا) و همچنین در گروه کاربری Krakow Scala سخنران بود. می‌توانید ویدیوی JDD را در اینجا پیدا کنید: https://www.youtube.com/watch?v=BnORjQbnZNQ&t - بحث ML Spark. او همچنین یک جلسه برنامه نویسی زنده در کنفرانس Geecon برگزار کرد. او در حال حاضر روی این وب سایت با استفاده از ML کار می کند: http://www.allegro.pl

Tomasz Lelek Tomasz Lelek

توماس للک یک مهندس نرم افزار است که بیشتر در جاوا و اسکالا برنامه نویسی می کند. او از طرفداران معماری میکروسرویس و برنامه نویسی کاربردی است. او هر روز زمان و تلاش قابل توجهی را برای بهتر شدن اختصاص می دهد. او اخیراً به فناوری‌های کلان داده مانند Apache Spark و Hadoop پرداخته است. او تقریباً به همه چیزهایی که با توسعه نرم افزار مرتبط است علاقه دارد. توماس فکر می کند که همیشه باید سعی کنیم قبل از حل یک مشکل راه حل ها و رویکردهای مختلف را در نظر بگیریم. او اخیراً در چندین کنفرانس در لهستان - Confitura و JDD (روز توسعه‌دهنده جاوا) و همچنین در گروه کاربری Krakow Scala سخنران بود. می‌توانید ویدیوی JDD را در اینجا پیدا کنید: https://www.youtube.com/watch?v=BnORjQbnZNQ&t - بحث ML Spark. او همچنین یک جلسه برنامه نویسی زنده در کنفرانس Geecon برگزار کرد. او در حال حاضر روی این وب سایت با استفاده از ML کار می کند: http://www.allegro.pl